Math'φsics

Menu
  • Acceuil
  • Maths
  • Physique
    • Maths
    • Physique
  • Chaîne de Markov

    Formulaire de report


    Chaîne de Markov sur \(E\)
    Processus \((X_n)_{n\in\Bbb N}\) à valeur dans \(E\) de Transition \(Q\) tel que \(\forall n\in{\Bbb N}\), la Loi conditionnelle de \(X_{n+1}\) connaissant \((X_0,\dots,X_n)\) est \(Q(X_n,\cdot)\).
    • intuition : la connaissance du passé ne donne pas plus d'informations que la connaissance seule du présent
    • caractérisations :
            
      1. \({\Bbb P}(X_{n+1}=y|X_0=x_0,\dots,X_n=x_n)=Q(x_n,y)\)

        
  • \({\Bbb P}(X_{n+1}=y|X_0,\dots,X_n)=Q(X_n,y)\)
    • conséquences :
    •     
    • \(\forall\{i_1,\dots,i_k\}\in[\![0,n-1]\!]\), \({\Bbb P}(X_{n+1}=y|X_{i_1},\dots,X_{i_k},X_n)=Q(X_n,y)\)
    •         
    • en particulier, \({\Bbb P}(X_{n+1}=y|X_n)=Q(X_n,y)\)
    • autres caractérisations :
            
      1. \({\Bbb P}(X_0=x_0,\dots,X_n=x_n)={\Bbb P}(X_0=x_0)Q(x_0,x_1)Q(x_1,x_2)\dots Q(x_{n-1},x_n)\) la loi de \((X_0,\dots,X_n)\) est déterminée par la loi de \(X_0\) et par la matrice \(Q\)

    • si \((X_n)\) est une chaîne de Markov, alors \({\Bbb E}[f(X_{n+1})|X_0,\dots,X_n]=\) \(Qf(X_n)\)
    • si \((X_n)\) est une chaîne de Markov et \(Y_p:=X_{n+p}\), alors \((Y_p)_p\) est également une chaîne de Markov
    • on peut toujours construire une chaîne de Markov à partir d'une Transition \(Q\) et d'un point de départ \(x\in E\)


    Questions de cours

    Démontrer \((\implies)\) :

    On va procéder par récurrence \(\to\) l'initialisation est facile.

    Pour l'hérédité, on utilise l'hypothèse de récurrence en passant par la probabilité conditionnelle.


    Démontrer \((\impliedby)\) :

    Si \((*)\) est vraie, alors on peut retrouver \(Q(x_n,y)\) via les probabilités conditionnelles, ce qui donne une caractérisation.


    Démontrer \(1)\) :

    On développe l'espérance via une somme d'indicatrices.

    On a le résultat en passant aux Transitions.w


    Démontrer \(2\)) :

    On a le résultat en passant par la proba conditionnelle et la formule avec le produit.


    Démontrer \(3)\) :

    On simplifie en utilisant \(2)\).

    On retrouve alors la formule avec le produit, qui est une caractérisation d'une chaîne de Marov.


    START
    Ω Basique (+inversé optionnel)
    Recto: Expliquer en quoi une suite de v.a.i.i.d constitue une chaîne de Markov.
    Verso:

    Bonus:
    Carte inversée ?:
    END
    START
    Ω Basique (+inversé optionnel)
    Recto: Donner un exemple de chaîne de Markov où \(E={\Bbb Z}^d\).
    Verso:

    Bonus:
    Carte inversée ?:
    END
    START
    Ω Basique (+inversé optionnel)
    Recto: Expliquer en quoi une marche aléatoire sur un graphe peut être modélisée par une chaîne de Markov.
    Verso:

    Bonus:
    Carte inversée ?:
    END

    Exercices


    On veut montrer que la connaissance du présent seule est importante dans la connaissance du passé \(\to\) pour cela, on conditionne par des événements \(\{X_i=x_i\}\) de probabilité non nulle.

    On peut tout simplifier en passant par le caractère iid des \(U_i\) \(\to\) cela donne la propriété de Markov et la transition.




    C'est une matrice \(2\times 2\).




    Pour la formule de récurrence, on passe par les probabilités totales.

    On peut alors calculer le terme général de cette Suite arithmético-géométrique.

    On peut alors calculer \(Q^n\), en changent les valeurs de \(p_0\) et en passant à \(1-p_n\) pour certains coefficients.




    On cherche la limite de la suite \((p_n)_n\) (qui est arithmético-géométrique).

    On a donc la loi limite, via des masses de Dirac.




    Cela se montre rapidement via l'expression.




    On peut calculer \({\Bbb P}(T=k|X_0=1)\) en passant par un produit de coefficients de la matrice.

    Attention au cas particulier qui n'est pas couvert par la formule.

    On calcule ensuite l'espérance en sommant (série géométrique).





    On calcule cela via une somme de toutes les possibilités.



    On va passer par la définition \({\Bbb P}_0(H_0=\infty)=0\).

    On commence par calculer \({\Bbb P}_0(H_0\gt n)\), ce qui se fait rapidement via les propriétés de cette chaîne.

    On peut passer à la limite par continuité décroissante et conclure.


    Faire la question \(1)\).

    Le graphe est connexe non orienté, donc on peut montrer que la racine communique avec tout point de l'arbre.


    Faire la question \(2)\).

    \((Y_n)_n\) suit une marche aléatoire, donc une chaîne de Markov.


    Faire la question \(3)\).

    On pose \((S_n)_n\) une marche aléatoire similaire à \((Y_n)_n\), mais sans le cas particulier en \(0\).

    On peut appliquer la Loi forte des grands nombres à \((S_n)_n\) pour avoir sa limite.

    On a \(Y_n\geqslant S_n\), ce qui nous permet de conclure.


    Faire la question \(4)\).

    La distance à la racine tend vers \(+\infty\), donc la racine est transitoire.

    On conclut par irréductibilité de la chaîne.



    Cela se fait rapidement, en vérifiant que tous les états communiquent (ou pas).


    Faire \(ii.\)


    \(u(x)\) peut être décomposé selon la valeur de \(X_1\), via la formule des probabilités totales.

    Les deux temps d'arrêt sont toujours supérieurs à \(1\), donc on peut appliquer un shift sans changer leurs valeurs.

    On conclut en appliquant la Propriété de Markov faible.


    Faire \(iii.\)


    On développe \(u(x)=1\times u(x)\), avec \(1=p_x+r_x+q_x\).

    On obtient la formule finale en simplifiant et en mettant tous les \(p_x\) et \(q_x\) du même côté.


    Faire \(iv.\)


    On obtient une formule par récurrence, en faisant apparaître un produit.

    On peut obtenir l'expression de \(u(x)\) en sommant les termes (puisque la somme est télescopique).

    Il reste à calculer la constante, que l'on obtient en prenant \(x=b\).



    C'est une chaîne de Markov connue.

    Pour qu'elle soit irréductible, il faut que chaque document ait une probabilité non nulle d'être demandé.



  • Rétroliens :
    • Chaîne de Markov irréductible
    • Equation de Chapman-Kolmogorov
    • Etat nul
    • Etat positif
    • Etat récurrent
    • Information mutuelle conditionnelle
    • Inégalité de Fano
    • Marche aléatoire réfléchie
    • Mesure invariante
    • Noyau potentiel
    • Probabilité d'absorption
    • Processus markovien de sauts
    • Protocole Aloha avec un nombre fini de stations
    • Protocole Aloha avec un nombre infini de stations
    • Protocole Ethernet
    • Période d'une chaîne de Markov
    • Suite arithmético-géométrique
    • Temps de premier passage
    • Temps de premier retour
    • Théorème du traitement de l'information
    • Théorème ergodique